THERMONUCLÉAIRE (ÉNERGIE)


THERMONUCLÉAIRE (ÉNERGIE)
THERMONUCLÉAIRE (ÉNERGIE)

Jusqu’au milieu du XXe siècle, l’énergie nécessaire à la survie et au développement du monde vivant a été assurée, directement ou indirectement, par la transformation du rayonnement solaire arrivant sur la planète. Dans un premier temps, la maîtrise du feu a permis à l’homme de s’affranchir progressivement, dans son approvisionnement en énergie, des cycles d’ensoleillement journaliers et saisonniers. L’exploitation intensive des combustibles fossiles amena au XIXe siècle l’explosion industrielle que l’on sait.

L’origine de l’énergie solaire est connue depuis le début du XXe siècle. Elle provient de la fusion nucléaire des noyaux d’hydrogène qui composent l’essentiel de la masse solaire. L’énergie ainsi dégagée est par nature infiniment supérieure à l’énergie des réactions chimiques de combustion. L’explosion de la première bombe à hydrogène, en 1952, témoigne des potentialités énergétiques de ces réactions thermonucléaires. Le plus difficile, mais aussi le plus passionnant, reste à faire: comment maîtriser cette colossale source d’énergie au service de l’humanité?

Le combustible avec lequel on obtient le plus facilement la réaction de fusion est le mélange des deux isotopes de l’hydrogène, le deutérium 21D et le tritium 31T. La réaction de fusion exige, pour être amorcée, que le mélange soit porté à très haute température, de 100 à 200 millions de degrés. Les études systématiques entreprises à partir du début des années 1950 ont permis de définir rapidement deux méthodes pour tenter d’atteindre l’objectif:

– la première, appelée confinement magnétique , consiste à maintenir en régime stationnaire un mélange gazeux de deutérium-tritium peu dense (un millionième de la densité «normale») dans lequel les ions sont confinés pendant environ 1 seconde par champ magnétique puissant (de 3 à 8 teslas); cette approche s’est focalisée depuis quelques années sur la construction et l’étude de grands appareils de recherche appelés tokamaks; elle fait l’objet d’une très large collaboration internationale;

– la seconde, dite confinement inertiel , vise au contraire à contrôler une mini-explosion thermonucléaire, sur un mélange solide deutérium-tritium hyperdense (de cent à mille fois la densité de la glace), comprimé et chauffé par des faisceaux lasers ou particulaires très puissants.

Un réacteur à fusion thermonucléaire devra accepter des contraintes thermiques, neutroniques, mécaniques de corrosion, etc., extrêmement sévères et, de ce point de vue, sa réalisation constitue un défi technologique. Les avantages potentiels à long terme en sont cependant certains:

– réserve énergétique quasi inépuisable; le deutérium se trouve en quantité pratiquement illimitée dans les océans, le tritium est produit lors de la réaction nucléaire à partir d’un élément abondant, le lithium, qui représente 0,004 p. 100 de la croûte terrestre;

– sécurité d’exploitation, le seul élément radioactif utilisé, le tritium, étant produit dans le réacteur et ne nécessitant aucun transfert; les «cendres» résultant de la réaction ne sont pas radioactives; le combustible est toujours en faible quantité dans la zone du réacteur, limitant l’importance d’un éventuel accident.

1. La fusion thermonucléaire

L’énergie de fusion

Le noyau d’un atome est constitué de deux types de particules appelées nucléons: les protons de charge positive et les neutrons de charge nulle. La cohésion des nucléons, et donc la stabilité des atomes, est assurée par une force à courte portée (10 size=115 m) appelée interaction forte. Elle s’oppose à la force électrostatique qui est, au contraire, répulsive pour les particules chargées de même signe (les protons). La mécanique quantique nous apprend que l’énergie de liaison, en mégaélectronvolts par nucléon, est maximale pour l’atome de fer, qui est constitué de 56 nucléons (fig. 1), ce qui signifie concrètement que la fission de noyaux plus lourds que le fer ou la fusion des noyaux plus légers sont libératrices d’énergie.

Les sauts quantiques d’énergie mis en jeu sont de l’ordre de 1 mégaélectronvolt par nucléon, c’est-à-dire environ un million de fois plus importants que les sauts quantiques mis en jeu au cours des réactions chimiques qui intéressent les niveaux d’énergie électroniques des atomes. Par exemple, la combustion du carbone fournit 力 4 électronvolts par molécule de dioxyde de carbone C2 formée, la fission de l’uranium, 力 200 mégaélectronvolts par atome, la fusion d’un noyau de deutérium et de tritium, 力 18 mégaélectronvolts. Ces résultats, convertis en unités pratiques, s’expriment ainsi: l’énergie potentielle contenue dans 1 kilogramme de charbon est équivalente à 9 kilowattheures, dans 1 kilogramme d’uranium à 24 憐 106 kWh, dans 1 kilogramme de mélange deutérium-tritium à 94 憐 106 kWh.

La vie des étoiles est la manifestation «éclatante» des principes évoqués. L’énergie thermonucléaire dégagée par les réactions de fusion qui s’y produisent est la source du rayonnement considérable dont nous percevons les effets, notamment le rayonnement solaire. Le combustible qui alimente le feu thermonucléaire subit en effet, tout au long de la vie de l’étoile, une évolution qui le conduit naturellement, dans la phase ultime, vers l’état fer qui présente l’énergie potentielle minimale. Au cours de cette évolution, la température du cœur de l’étoile augmente par paliers successifs, chaque palier correspondant à une phase de combustion particulière. Au centre du Soleil, par exemple, on estime la température à 20 millions de degrés, dont la correspondance est de 2 kiloélectronvolts, et la densité à 1027 électrons par centimètre cube. La pression, supérieure à 1011 atmosphères, est équilibrée par les forces gravitationnelles considérables résultant de la masse solaire qui est d’environ 1030 kilogrammes. La concentration en noyaux d’hydrogène est élevée, de sorte que les chaînes protons-protons jouent un rôle prépondérant dans la production d’énergie thermonucléaire solaire. Lorsque la phase de combustion de l’hydrogène sera terminée, dans quelques milliers de millions d’années, commencera une phase de contraction qui amènera une augmentation de densité et de température permettant d’entamer une phase de combustion de l’hélium, etc.

La masse fantastique des étoiles et la force de gravitation associée assurent l’équilibre du milieu en fusion: équilibre entre les forces de compression dues à la gravitation et à l’énergie explosive de la fusion. Il est ainsi possible de brûler dans les étoiles tous les combustibles fusibles. La réalisation et le contrôle de réactions de fusion à l’échelle humaine sont évidemment un autre problème.

La maîtrise de la fusion sur Terre

La maîtrise sur Terre de soleils miniatures impose dès le départ une optimisation du combustible nucléaire par rapport à deux exigences: avoir une énergie libérée importante par réaction nucléaire, avoir une probabilité de réaction (section efficace) le plus grande possible, et cela à la température le plus faible possible. La vitesse de réaction pour la fusion d’ions de type i et j est déterminée par la réaction:

ni et nj sont respectivement la densité des espèces i et j , 靖ij vij étant la valeur moyenne du produit de la section efficace de la réaction 靖ij par la vitesse relative vij des ions i et j . Cette formule est calculée en général pour une distribution de vitesse maxwellienne correspondant à la température T des espèces considérées. Les réactions nucléaires de fusion les plus intéressantes sont les suivantes:

Entre parenthèses figure l’énergie de fusion des éléments, en MeV, et, entre crochets, celle de la réaction nucléaire.

L’examen du paramètre de réaction 靖v pour les cinq réactions précédentes (fig. 2) montre clairement que c’est la réaction deutérium-tritium qui sera la plus accessible. Le deutérium est abondant, puisque contenu largement dans l’eau de mer (33 g/m3), et de plus il est facilement extractible. Le tritium n’existe par contre qu’à l’état de traces, et devra être obtenu par réactions nucléaires avec le lithium:

Le schéma de principe d’un réacteur de fusion thermonucléaire brûlant un mélange deutérium-tritium est représenté dans la figure 3. Il comprend:

– un cœur chaud où se trouve le mélange;

– une couverture riche en lithium qui assurera à la fois la récupération de l’énergie des neutrons, elle-même évacuée avec un fluide caloporteur vers une turbine, et la production du tritium nécessaire à la combustion; nous allons, dans ce qui suit, décrire les caractéristiques du cœur chaud et les options proposées pour parvenir à sa maîtrise.

Le critère de Lawson. La condition nécessaire pour que ce mélange combustible conduise à un réacteur économiquement viable est connue sous le nom de «critère de Lawson», du nom du physicien qui en a fait le premier l’évaluation. Considérons le facteur d’amplification Q du réacteur tel que la puissance fournie P se transforme en (1 + Q) Pinj. La puissance dégagée par unité de volume par la réaction thermonucléaire est, d’après (1):

avec n = 2ni = 2nj , densité totale des atomes; E représente l’énergie dégagée par la réaction de fusion (17,59 MeV). La puissance volumique Pch qui permet l’entretien de la température du milieu est fournie, d’une part, par un apport extérieur de puissance, d’autre part, par une fraction f de la puissance dégagée par l’énergie de fusion elle-même. Dans la réaction considérée, il s’agira de l’énergie portée par l’hélium 42He (particules 見), avec f = 0,2. On a donc:

avec, par définition, 精E = temps de vie de l’énergie du plasma, ou rapport de l’énergie contenue à la puissance fournie, mais également temps caractéristique de refroidissement du milieu en cas de coupure de la source de puissance. En se rappelant la définition de Q, on peut écrire:

Cette dernière expression est de la forme nE = F(T, Q); 靖v dépend exclusivement de T; E et f sont des constantes pour la réaction de fusion considérée.

Dans le plan nE, T, on peut définir pour chaque valeur du facteur d’amplification Q du réacteur un ensemble de courbes qui caractériseront chacune les différents régimes de fonctionnement.

À Q = 1, étape d’intérêt physique appelée break-even , l’énergie produite est égale à l’énergie consommée pour chauffer le milieu.

À Q = 秊, étape idéale appelée ignition, il n’est plus nécessaire de fournir de l’énergie au système, l’énergie issue des particules 見 assurant à elle seule l’entretien du réacteur.

Q = 20 représente la valeur minimale obtenue pour un fonctionnement économique, dans lequel de 10 à 15 p. 100 de l’énergie électrique produite serait utilisée pour le fonctionnement du réacteur lui-même, la conversion thermique-électrique étant assurée avec un rendement de 40 p. 100.

Pour Q 礪 20, l’entretien du réacteur est assuré pour l’essentiel par l’énergie venant des particules 見 et, de ce fait, une prise en compte réaliste des rendements électriques associés aux puissances additionnelles Pinj ne modifiera pas sensiblement les conclusions.

Dans l’hypothèse réaliste Q = 20, et en considérant que la valeur minimale de la fonction KT/ 靖v est obtenue pour une température du mélange deutérium-tritium, T = 26 KeV, on trouve nE = 2 憐 1014 cm size=13 . s.

À noter que le même raisonnement pour un plasma de deutérium conduirait au couple de valeurs:

beaucoup plus difficilement réalisable.

Comment réaliser le cœur chaud d’un réacteur? La température requise pour le mélange gazeux, 300 millions de kelvins (1 eV = 11 600 K), est imposée par le fait que les particules, qui sont toutes ionisées, doivent avoir une énergie suffisante pour vaincre leur répulsion électrostatique, avant de fusionner. La condition sur le produit nE semble offrir par contre de grandes possibilités de choix pour le couple de paramètres densités-temps de confinement de l’énergie. Après analyse, ce choix est cependant restreint par les méthodes expérimentales finalement retenues.

La voie du confinement magnétique cherche à équilibrer la pression cinétique du mélange par la pression magnétique. Les valeurs des champs magnétiques pratiquement réalisables dans de grands volumes, de 3 à 8 teslas, vont limiter la pression cinétique du milieu confiné (2nk T) et donc sa densité à une valeur de l’ordre de 1014 particules par centimètre cube, ce qui imposera un confinement très long, quelques secondes, pour les particules.

La voie du confinement inertiel se contentera au contraire d’un temps de confinement, ou plutôt d’un temps de réaction, extrêmement court, 10 size=111 seconde, assuré uniquement par l’inertie dans l’expansion libre de la matière en fusion. Ce temps est en fait déterminé par la vitesse du son du milieu, qui dépend essentiellement de sa température. La densité nécessaire 1025 particules par centimètre cube sera obtenue par compression d’un milieu solide de 1022 particules par centimètre cube grâce à de très puissants faisceaux lasers ou particulaires.

2. La fusion par confinement magnétique. Le tokamak

Le confinement magnétique

Dans un champ magnétique B uniforme, la trajectoire d’une particule chargée est une hélice dont le centre de giration suit la ligne de force. La rotation autour de la ligne de force se fait à la pulsation cyclotronique 諸 = AB/M, où A est la charge et M la masse de la particule.

Le mouvement est borné dans la direction perpendiculaire au champ par l’amplitude du rayon de giration:

v size=1 est la vitesse de la particule perpendiculaire à ち; pour un ion deutérium «thermonucléaire», 福 力 1 cm.

Le mouvement est libre le long des lignes de force et, par conséquent, le confinement n’est pas assuré. On a vu que l’ion doit parcourir en moyenne un millier de kilomètres dans le milieu fusible sans contact avec les parois matérielles. Dans un champ magnétique non uniforme, le centre de giration de la particule est soumis lui-même à une vitesse de dérive proportionnelle à ち 廬暴B, c’est-à-dire perpendiculaire à la fois à la ligne de force et au gradient du champ.

Du fait de cette dérive, les configurations magnétiques qui s’imposent en première analyse, les configurations magnétiques fermées, ne pourront pas prendre la forme toroïdale la plus simple, dans laquelle les lignes de force sont des cercles concentriques. Le module du champ y varie en effet comme 1/R (R est la distance à l’axe du tore), et la vitesse de dérive verticale que subissent les particules les fait sortir rapidement de la zone utile de la configuration (fig. 4). Cet effet de dérive peut être compensé en modifiant les lignes magnétiques par l’addition d’une composante de champ poloïdale (fig. 5). Chaque ligne de force prend alors la forme d’une hélice enroulée sur le tore qui engendre une surface torique fermée, appelée surface magnétique. Cette situation peut être créée entièrement par des courants extérieurs convenablement répartis (configuration stellerator); soit, plus simplement, en faisant circuler un courant toroïdal dans le plasma (configuration tokamak).

Lorsque l’intensité du champ varie le long d’une ligne de force, une force de rappel ramène les particules vers la zone de champ faible. Il est ainsi possible de piéger entre deux zones de champs forts, appelées «miroirs magnétiques», les particules dont la vitesse v size=1 perpendiculaire aux lignes de champ est suffisante. La condition, ainsi définie, s’écrit au fond de la «bouteille magnétique»:

v size=1 est la vitesse parallèle aux lignes de champ au fond de la bouteille magnétique, Bmin et Bmax sont les modules du champ au fond de la bouteille et en haut des miroirs. Cette propriété a servi de base aux études d’une autre classe de configurations magnétiques de confinement non toroïdales, dites configurations ouvertes. Elle intervient également de façon fondamentale dans le confinement des systèmes toroïdaux, car le module du champ n’est pas uniforme le long des lignes de force qui définissent ces systèmes.

À partir de ces principes généraux, une étude systématique des différentes configurations magnétiques potentiellement possibles pour le confinement des plasmas chauds a été faite. Dès 1969, à la suite des travaux soviétiques dirigés par l’académicien Lev Artsimovitch à l’institut Kurchatov de Moscou, la configuration tokamak s’avère la plus prometteuse. La stratégie du réacteur de démonstration est désormais fondée sur ce principe.

Dans la configuration tokamak (fig. 6), le champ toroïdal BT, créé par des bobinages extérieurs à la configuration, est par nature axisymétrique (axe z ). Il est strictement équivalent dans la zone utile au champ qui serait produit par un courant rectiligne infini confondu avec l’axe z ; son module varie donc comme 1/R. Le champ poloïdal BP est fourni par le courant intense (plusieurs millions d’ampères dans les grands appareils) que l’on fait circuler dans l’anneau torique du plasma. Ce courant est induit à l’aide d’un circuit primaire externe, le courant plasma constituant ainsi le secondaire. De ce point de vue, le tokamak est un très gros transformateur d’impulsions, et son fonctionnement est par conséquent pulsé. La recherche d’un fonctionnement permanent pour le réacteur a conduit récemment à développer les techniques de production du courant plasma par voies non inductives. Le couplage direct d’ondes à hautes fréquences sur les électrons rapides du plasma et l’injection de faisceaux de neutres sont utilisés dans ce but.

La section méridienne des surfaces magnétiques n’est pas forcément circulaire. Une ligne de force tourne q fois autour de l’axe z du tore pour une révolution autour de l’axe magnétique. La grandeur q ainsi définie porte le nom de «facteur de sécurité». Elle varie typiquement entre 1 et 3, en allant de l’axe magnétique vers le bord du plasma. En raison de la décroissance en 1/R du champ toroïdal, l’intensité du champ magnétique varie le long d’une ligne de force entre l’extérieur et l’intérieur du tore. Chaque ligne agit donc comme une suite de «bouteilles magnétiques», telles que:

Les particules se classent en deux familles, en fonction de la direction de leur vecteur vitesse par rapport au champ. Si:

les particules sont «piégées» dans les zones de champ faible. Dans le cas contraire, elles sont «passantes» dans toutes les zones de la configuration. Toutes les particules décrivent des surfaces toriques, mais les sections méridiennes sont fondamentalement différentes. L’écart à la surface magnétique correspondante, qui est lié notamment à la dérive toroïdale des particules, est beaucoup plus grand que le rayon de giration r = 福 pour les particules passantes, et:

pour les particules piégées.

Cet écart dimensionne le coefficient de la diffusion collisionnelle perpendiculairement aux lignes magnétiques, qui, dans un plasma cylindrique, s’exprime en fonction de la fréquence de collisions 益:

Dans le tore du tokamak, ce coefficient sera donc nettement plus grand, environ dix fois, tout en restant acceptable.

La création et le chauffage du plasma

La configuration magnétique ainsi définie existe dans un volume utile délimité essentiellement par une enceinte étanche, qui est de forme toroïdale et dans laquelle on élimine toute source de pollution extérieure. Elle permet d’atteindre une pression résiduelle inférieure à 10 size=16 pascal. Cette enceinte est alors remplie du gaz «utile» hydrogène-deutérium (puis tritium dans le réacteur) sous une pression de l’ordre de 3 . 10 size=12 pascal, ce qui correspond à la densité de particules souhaitée: 1014 particules par centimètre cube. Ce gaz, soumis à l’action du champ électrique induit par le primaire du transformateur, subit dans un premier temps une ionisation en cascade pour atteindre très rapidement, après quelques millisecondes, un état complètement ionisé qui lui permet de transporter un courant important. La configuration magnétique tokamak est ainsi réalisée. La densité du plasma est convenable, il faut maintenant chauffer pour porter la température à plusieurs kiloélectronvolts. Différentes techniques de chauffage sont utilisées.

Le chauffage ohmique tout d’abord, puisque le courant très intense qui parcourt le plasma ne peut le faire qu’en dissipant, par effet Joule, la puissance P = 兀J2, où 兀 est la résistivité moyenne du plasma et J la densité de courant moyenne.

Cette méthode simple et efficace a malheureusement ses limites: la résistivité est proportionnelle à Te size=13/2, ce qui veut dire que plus le plasma est chaud, moins le chauffage est efficace. La densité de courant est limitée par des raisons de stabilité formulées en fonction du facteur de sécurité q :

doit être supérieur à 1 pour respecter les conditions de Kruskal, Shafranov, Mercier.

Pour ces différentes raisons, le chauffage ohmique ne permet d’atteindre qu’une température de 2 à 3 kiloélectronvolts, au lieu des 10 à 20 kiloélectronvolts nécessaires pour la fusion. Les principaux moyens de chauffage mis en œuvre pour compléter le chauffage ohmique sont décrits ci-après.

Injection de neutres rapides. L’idée est simple: il s’agit d’injecter des ions de même nature que ceux du plasma (H ou D), mais d’énergie bien supérieure à k Ti (k est la constante de Boltzmann, Ti la température des ions). Par collisions avec les ions et les électrons du plasma, le faisceau d’ions se thermalise en cédant l’essentiel de son énergie au milieu. Comme la configuration magnétique ne permet pas l’injection d’ions de l’extérieur, ils sont successivement accélérés à haute énergie hors du tokamak, puis neutralisés, par capture d’électrons sur cible à gaz. À l’état de neutres rapides, ils franchissent la barrière magnétique, sont ionisés par le plasma, et ainsi capturés. Les sections efficaces des réactions d’échange de charges qui permettent de neutraliser les ions rapides, ainsi que celles des réactions d’ionisation qui permettront de les capturer dans le plasma, sont bien connues. La diminution, aux énergies élevées, du rendement de la neutralisation par échange de charges limite cependant en pratique l’énergie des neutres injectés à 100-200 kiloélectronvolts. L’utilisation de faisceaux d’ions négatifs, encore matière à développement, pourrait permettre de franchir cette limite. Cette méthode de chauffage demande la mise en œuvre très lourde de faisceaux d’ions de plusieurs mégawatts, suivie de neutraliseurs qui exigent de très puissants dispositifs de pompage. Elle offre, en revanche, l’avantage d’une physique relativement simple et donc d’une bonne compréhension des mécanismes de chauffage mis en jeu. Elle est, à ce jour, très largement utilisée. Les dispositifs les plus performants mis en service ont une puissance injectée de l’ordre de 40 mégawatts (tokamak américain T.F.T.R., Tokamak Fusion Test Reactor).

Le chauffage par ondes à haute fréquence. La propagation et l’absorption des ondes constituent un chapitre très riche et très complexe de la physique des plasmas [cf. PLASMAS]. Les ondes susceptibles d’être absorbées efficacement sont extrêmement variées. Après de très nombreuses études, une concentration des efforts s’est faite sur quelques fréquences caractéristiques des plasmas magnétisés. Le chauffage à la fréquence cyclotronique, fréquence naturelle de giration des particules dans un champ magnétique, s’est avéré très efficace et est largement employé.

À la fréquence cyclotronique ionique ou à ses harmoniques (gamme de fréquences de 10 à 100 MHz), plusieurs mécanismes d’absorption dépendant de la nature du mélange gazeux et de la fréquence mise en jeu peuvent intervenir pour chauffer préférentiellement les ions, ou les électrons. Ils sont maintenant bien compris et utilisés systématiquement sur les grands tokamaks. L’onde est envoyée dans le plasma au moyen d’antennes (fig. 7) placées au niveau de la paroi à l’intérieur de la chambre qui contient le plasma. Les développements technologiques faits sur ces antennes permettent, aujourd’hui, de transmettre des puissances unitaires de l’ordre de 10 mégawatts, la puissance maximale installée sur le tokamak européen J.E.T. (Joint European Torus) étant de 40 mégawatts.

À la fréquence cyclotronique électronique, on sait depuis longtemps coupler efficacement l’énergie aux électrons. L’utilisation extensive de cette méthode a été jusqu’à ce jour retardée par le manque de sources de puissance aux très hautes fréquences mises en jeu (gamme de fréquences de 100 à 200 GHz). La mise au point et le développement de nouveaux tubes, les gyrotrons, durant ces dernières années permettent de penser que beaucoup de progrès restent possibles dans ce domaine. Des expériences au niveau de 2 mégawatts à 90 gigahertz ont été réalisées sur le grand tokamak T-10 en U.R.S.S., à l’institut Kurchatov de Moscou, et des tubes de fréquences supérieures à 100 gigahertz, devant fournir en continu plusieurs centaines de kilowatts, sont en développement.

À noter enfin, dans ces techniques de chauffage par ondes, les ondes hybrides (f = de 1 à 10 GHz) qui permettent de coupler de l’énergie soit sur les ions, soit sur les électrons, selon la vitesse de phase de l’onde dans le plasma. Ces ondes ont permis de réaliser à puissance moyenne, c’est-à-dire plusieurs centaines de kilowatts, des chauffages ioniques ou électroniques, mais leur utilisation est maintenant essentiellement orientée à puissance plus élevée (10 MW) vers la création du courant de plasma et son entretien permanent. Un courant de 1 méga-ampère a été obtenu grâce à cette technique pendant 1 minute dans le tokamak français Tore-Supra.

Les mécanismes de perte et le bilan de puissance

En régime stationnaire, la puissance de chauffage Pch équilibre la puissance perdue Ppert, l’énergie contenue dans le milieu plasma 3nk T étant alors, par définition du temps de vie de l’énergie:

Pch comprend les chauffages pilotés de l’extérieur (chauffages additionnels) et le terme énergétique provenant de la réaction thermonucléaire qui a lieu dans le réacteur D.-T.; cette énergie est produite par la puissance contenue dans les particules 見 (42He), c’est-à-dire 0,2 Pth. Le temps de vie de l’énergie caractérise donc l’ensemble des termes de pertes.

Les pertes par rayonnement sont, dans les machines actuelles, essentiellement associées à l’émission de raies des atomes d’impuretés incomplètement ionisés. Pour l’essentiel, ces impuretés sont l’oxygène, le carbone, le fer, le nickel. Les pertes provoquées par ce type de rayonnement représentent dans les appareils actuels de 10 à 50 p. 100 du bilan énergétique. On en minimise les effets par un conditionnement préalable des parois de la chambre à vide et par un contrôle de la qualité des plasmas de bord, tous deux destinés à ralentir la génération des impuretés par la paroi de la chambre. Le maintien de la concentration des impuretés à un niveau suffisamment faible est une condition nécessaire pour un bilan de fusion positif.

Les pertes par rayonnement de freinage des électrons sur les ions du combustible deutérium-tritium, proportionnelles à n 2½, resteront dans une limite acceptable pourvu que la température du plasma soit suffisante (face=F0019 閭 5 KeV).

L’échange de charge entre des ions chauds et des neutres froids résiduels dans le plasma est aussi une façon de déconfiner de l’énergie, puisque les neutres chauds vont échapper au confinement. Ce mécanisme, responsable d’environ 10 p. 100 des pertes dans les machines actuelles, doit cependant devenir négligeable pour le réacteur.

Transport «néo-classique» de matière et de chaleur. Les flux de matière et de chaleur s’expriment de façon classique en fonction des coefficients de diffusion D et de conductibilité thermique K, ainsi que des gradients de densité et de température:

Dans le tokamak, D et K ont été calculés par la théorie cinétique en tenant compte correctement de la forme torique, de la configuration et, en particulier, de l’existence de particules piégées (cf. supra , La configuration tokamak ). Les expressions obtenues ainsi sont appelées «néo-classiques». Dans la direction des gradients, c’est-à-dire perpendiculairement au champ magnétique, elles sont largement réduites, ce qui est la base même du principe de confinement. Le bilan d’énergie complet fait sur de nombreux tokamaks montre que cette description néo-classique ne permet pas d’équilibrer le bilan et qu’il faut faire intervenir, notamment pour les électrons, des coefficients D et K largement plus grands que ceux qui sont calculés par cette théorie. L’explication la plus naturelle d’un transport accéléré de l’énergie des électrons à travers le champ magnétique est l’action sur ces électrons des champs électriques et magnétiques fluctuants, associés aux ondes instables qui peuvent prendre naissance dans le plasma.

Les mécanismes d’instabilité , qui peuvent aller de l’apparition de microchamps électromagnétiques fluctuants à la disparition brutale du plasma, appelée «disruption majeure», ont fait l’objet de très nombreuses recherches qui permettent d’en éviter aujourd’hui les effets les plus nocifs. On a notamment identifié les zones de fonctionnement des tokamaks, qui gardent au confinement un caractère acceptable en vue du réacteur. Une classification succincte permet de distinguer:

– Les micro-instabilités qui sont alimentées par les sources d’énergie libre, liées à l’anisotropie de la fonction de distribution des vitesses ou aux gradients transversaux. Ces ondes ont pu être identifiées dans certains tokamaks. Les coefficients de diffusion associés:

avec E champ électrique oscillant de l’onde et 嗀t son temps de corrélation, restent cependant difficiles à évaluer.

– Les instabilités magnétohydrodynamiques, qui sont les plus dangereuses, car elles concernent la totalité du plasma qui se comporte comme un fluide.

– Les instabilités d’interchanges, qui entraînent l’échange entre des tubes de flux de plasma voisins. Elles sont stabilisées en imposant dans toute la section un facteur de sécurité q 礪 1.

– Les instabilités de torsion (kink en anglais) qui se traduisent par une perturbation hélicoïdale de la frontière du plasma.

Ces perturbations se développent préférentiellement sur les surfaces où le facteur de sécurité q est entier, conduisant à la formation de plusieurs axes magnétiques secondaires, entourés d’îlots magnétiques favorisant une diffusion transversale accélérée. En pratique, la stabilité de ces modes est assurée si q au bord est supérieur à 2 ou, plus facilement, si q est supérieur à 3 – les zones délicates étant toujours celles qui correspondent à q entier ou rationnel. Les instabilités résistives de déchirement peuvent, elles aussi, se développer pour les valeurs rationnelles de q .

Les comportements disruptifs observés sont de deux types:

– Les disruptions internes, qui créent un mécanisme de transport de l’énergie très puissant, mais agissant uniquement à l’intérieur du plasma. Au voisinage de l’axe magnétique, où ces instabilités sont liées à l’évolution de l’îlot magnétique qui se développe, elles peuvent être mises en évidence si q est inférieur à 1 et très finement analysées par de nombreuses mesures, notamment par la tomographie du plasma dans le domaine des rayons X mous (longueur d’onde = de 0,1 à 1 nm).

– Dans les zones périphériques, la croissance des îlots magnétiques sur les surfaces résonnantes q (r ) = 3/2, 2, 5/2, 3, qui peuvent conduire à une perte de confinement telle que la décharge se refroidisse très rapidement et s’éteigne brutalement, phénomène qualifié alors de disruption majeure.

Lois d’échelles. Les différents mécanismes de pertes étant très complexes, il n’existe pas aujourd’hui de modèle théorique cohérent pour expliquer la totalité des phénomènes. Le temps de vie de l’énergie, 精E, est, en revanche, accessible expérimentalement par le rapport de la puissance de chauffage injectée Pch à l’énergie contenue dans le système 3nk T. La variation de 精E dans une machine avec différents paramètres (courant de plasma, densité, champ magnétique, etc.), et entre plusieurs machines de caractéristiques différentes (rayon du tore R, rayon du plasma a ), permet de définir des lois d’échelles expérimentales qui servent de base d’extrapolation pour les machines à construire. À titre d’exemple, l’expression:

a été obtenue, en 1979, à partir d’une analyse régressive des résultats disponibles pour un large ensemble de décharges ohmiques. Elle montre clairement l’influence de la taille du plasma (a , R) dans le temps de vie, ce qui est attendu pour un mécanisme de diffusion. À noter que cette expression n’est plus valable lorsqu’on applique au plasma un chauffage additionnel intense, la dégradation observée dans ce cas pouvant être cependant maintenue à un niveau acceptable, dans certaines conditions particulières. La détermination des lois d’échelles exige la mesure détaillée du maximum de paramètres de plasma et, souvent, l’utilisation en complément de codes numériques de simulation dont la mise au point et l’exploitation ont représenté, dans les vingt dernières années, une part importante de l’activité des recherches dans le domaine. Les techniques de mesure mises en jeu sont extrêmement variées: spectroscopie des émissions de neutrons, de rayons X durs, de rayons X mous, de rayonnements issus des domaines de l’ultraviolet, du visible et de l’infrarouge, d’ondes millimétriques, et d’émissions radiofréquence en provenance du plasma; analyse de neutres rapides ayant subi un échange de charges; interférométrie des micro-ondes, diffusion Thomson d’un faisceau laser infrarouge par les électrons de plasma, etc. L’ensemble de ces méthodes permet de déterminer la densité du plasma et des impuretés, les températures électronique et ionique.

Les acquis et les perspectives de la fusion par confinement magnétique

Depuis les premiers résultats significatifs obtenus par les Soviétiques en 1968 sur le tokamak T-3:

une trentaine d’appareils de ce type, construits dans le monde, ont permis d’avancer progressivement vers l’objectif fixé par le critère de Lawson.

Trois grands tokamaks ont été mis en service successivement entre 1982 et 1985 et ont atteint depuis lors leur performances nominales (tabl. 1): le T.F.T.R. (Tokamak Fusion Test Reactor), par les États-Unis au laboratoire de Princeton dans le New Jersey; le J.E.T. (Joint European Torus), par la Communauté économique européenne, implanté en Angleterre à Culham, près d’Oxford, dans le cadre d’une entreprise communautaire; le J.T.-60 (Jaeri Tokamak), par les Japonais, implanté au laboratoire Jaeri à Naka, près de Ky 拏to. Le chemin parcouru depuis le T-3 se matérialise bien, en remarquant que le courant dans l’anneau de plasma est passé de 100 kiloampères à 7 méga-ampères dans le J.E.T.

Les étapes les plus significatives qui ont marqué la progression des tokamaks depuis 1960 sont présentées dans un plan nE, f (Ti ), figure 8. Cette progression est bien entendu associée à une croissance continue de la taille des appareils avec le temps, conformément aux lois d’échelles déjà évoquées, mais elle matérialise également la maîtrise progressive des techniques: limitation de la densité des impuretés et amélioration du temps de vie de l’énergie par un meilleur contrôle de l’interaction plasma-parois; puissances additionnelles injectées de plus en plus importantes grâce aux développements d’injecteurs de neutres très puissants et d’antennes de couplage de la puissance H.F. de grande qualité. La zone du break-even a été atteinte en 1991 par le J.E.T. et en 1993 par le J.T.-60.

Une stratégie à moyen terme découle logiquement de ces résultats. Les caractéristiques du plasma de break-even sont suffisamment proches de celles qui sont nécessaires pour un réacteur de démonstration pour qu’il soit possible d’en extrapoler, avec un grand degré de sécurité, le dimensionnement. Cette étape se prépare sous la forme d’une collaboration entre les quatre grandes communautés scientifiques mondiales Europe - Japon - Russie - États-Unis autour du projet I.T.E.R. (International Thermonuclear Experimental Reactor). L’objectif ici ne se limite pas à l’obtention des conditions d’ignition du mélange deutérium-tritium (on vise une puissance nucléaire de 1,5 GW), il est de maintenir ces conditions en régime d’équilibre stationnaire pendant une durée de 1 000 secondes. On devra aborder, voire résoudre, dans cette étape plusieurs questions essentielles pour la construction d’un réacteur. Par exemple, comment faire fonctionner un Tokamak en régime continu? Comment générer et recycler le tritium? Comment récupérer l’énergie produite par les neutrons? Comment améliorer le rendement économique du réacteur? Le projet I.T.E.R. (tabl. 1) est entré depuis 1992 dans sa phase de définition et d’étude détaillée, qui doit conduire à la décision de construction en 1998, selon le planning établi; la machine, dont le site doit être désigné en 1996, pourrait entrer en service en 2005.

Le programme de recherche français a débuté dès 1957 au Commissariat à l’énergie atomique (C.E.A.) et se poursuit, depuis 1960, dans le cadre d’un contrat d’association entre la direction des sciences de la matière (D.S.M.) du C.E.A. et la direction recherche et enseignement (D.G.-XII) de l’Euratom. Cette règle contractuelle est appliquée à l’ensemble des pays de la Communauté. Le programme européen, ainsi coordonné, se présente avec un volume et une qualité comparables à ceux des États-Unis, de la Russie et du Japon. La France a lancé en construction, au début de 1970, et exploité jusqu’en 1986 deux tokamaks: le T.F.R. (tokamak de Fontenay-aux-Roses), au Centre d’études nucléaires de Fontenay-aux-Roses, qui fut, entre 1974 et 1976, le tokamak mondial le plus performant, et Pétula au Centre d’études nucléaires de Grenoble. Ces deux appareils ont apporté une contribution très significative au développement de la filière tokamak, notamment dans la mise en œuvre de tous les moyens de chauffages additionnels.

Le programme pour la décennie de 1990 est centré sur l’expérience Tore-Supra. Le projet a été approuvé en 1981, la construction achevée à la fin de 1987 et les premiers essais avec le plasma ont été effectués en avril 1988, au Centre d’études nucléaires de Cadarache, où sont regroupées les équipes de spécialistes (350 personnes). Ce tokamak, d’une taille comparable, bien que légèrement inférieure, à celle du grand tokamak américain T.F.T.R., marque une nouvelle avancée dans la réalisation des grands tokamaks. Il est en effet le premier qui bénéficie d’un aimant toroïdal supraconducteur (le grand tokamak T-15, construit à l’institut Kurchatov de Moscou, également équipé d’un aimant supraconducteur, ne fonctionne pas de façon satisfaisante). L’utilisation du supraconducteur est en effet une nécessité économique pour rendre acceptable la consommation énergétique du tokamak au stade du réacteur, et l’ensemble du système magnétique d’I.T.E.R. sera supraconducteur. Le bobinage de Tore-Supra a été réalisé en niobium titane, il est refroidi avec de l’hélium superfluide à 1,8 K, avec le double avantage de donner à l’aimant supraconducteur des densités de courant limites et des champs critiques élevés, et d’assurer une grande stabilité cryostatique du système. L’énergie magnétique emmagasinée de 600 mégajoules en fait un des tout premiers aimants supraconducteurs du monde. La puissance électrique consommée, pour assurer la réfrigération de l’ensemble, est inférieure au mégawatt, soit un gain énergétique supérieur à 100 par rapport à un aimant conventionnel équivalent. Par nature, l’aimant supraconducteur fonctionne en régime permanent car, une fois le système réfrigéré, l’entretien du courant dans les bobinages ne coûte pratiquement plus rien. Cette caractéristique fournit à Tore-Supra l’opportunité d’aborder, avec des atouts uniques, le problème du fonctionnement continu du tokamak. Cet objectif conduit, d’une part, à explorer et à exploiter toutes les possibilités de génération non inductive et, par suite, permanente du courant de décharge (ondes électromagnétiques, faisceaux d’ions, courant autogénéré de «bootstrap»), d’autre part à développer des éléments de première paroi interne en contact avec le plasma (limiteur pompé, divertor ergodique), capables d’évacuer en régime permanent les flux de puissance et de particules venant du plasma.

La réalisation, en 1992, d’une décharge de 1 méga-ampère entretenue plus d’une minute de façon stationnaire avec un flux de puissance évacué par les parois de 3 mégawatts, bien qu’elle ne soit qu’une première étape dans l’exploitation de Tore-Supra, a représenté une avancée importante. Des décharges de 1 000 secondes sont visées à terme avec des puissances mises en jeu supérieures à 10 mégawatts.

Les autres voies de recherches. Pour conclure ce chapitre, rappelons que, si la filière tokamak concentre aujourd’hui l’essentiel des recherches sur le confinement magnétique, l’étude intensive d’autres configurations a permis de faire progresser la physique des plasmas chauds. La plupart des mécanismes que nous avons recensés dans le cadre du tokamak y sont étudiés: chauffage du plasma, pertes anormales.

L’utilisation des miroirs magnétiques dans la famille dite des «machines ouvertes» est pratiquement abandonnée, et la striction à champ toroïdal inversé, qui est d’une certaine façon une variante du tokamak, ne bénéficie plus que d’un effort modeste.

Le stellarator, première configuration étudiée par les Américains, qui se distingue du tokamak par le fait que la configuration magnétique toroïdale est entièrement créée par des courants extérieurs au plasma, reste en revanche, malgré la difficulté technique associée à la construction de cette configuration complexe, l’alternative probablement la plus valable. Elle est actuellement principalement étudiée en Allemagne et au Japon.

3. La fusion par confinement inertiel

La découverte du pompage optique par Alfred Kastler et Jean Brossel en 1950 suivie de celle du laser [cf. LASERS] par Theodore H. Maiman, Arthur L. Schawlow et Charles H. Townes en 1960 donnèrent naissance à la fusion par confinement inertiel. Bien qu’ayant débuté une dizaine d’années après le confinement magnétique, cette approche, utilisant un plasma très dense confiné pendant un temps bref, atteint aujourd’hui des performances telles qu’elle est considérée comme une seconde voie possible de la fusion thermonucléaire contrôlée.

Principe de la fusion par confinement inertiel

Le rayonnement du laser éclaire uniformément une très petite sphère de l’ordre du milligramme d’un mélange équimolaire de deutérium et de tritium (DT) à l’état solide (fig. 9). Il en résulte une ablation progressive de la périphérie de la sphère et la formation d’une couronne de plasma qui absorbe le rayonnement au voisinage de sa densité de coupure, densité pour laquelle pulsation du rayonnement laser et pulsation électronique du plasma sont égales. Cette couronne se détend vers l’extérieur et exerce, par réaction, une poussée centripète qui comprime et chauffe la partie centrale dense de la sphère de DT, qui n’a pas été atteinte par le laser et qu’on appelle «cœur».

Soumis à cette poussée centripète ou «implosion», le cœur est comprimé jusqu’à des densités de mille à dix mille fois celle du DT solide et porté à des températures de l’ordre de 10 kiloélectronvolts, densités et températures qui donnent lieu à un grand nombre de réactions de fusion des noyaux de deutérium et de tritium, ou deutons et tritons: le cœur s’enflamme et «brûle» pendant un laps de temps bref voisin de 100 picosecondes (ps), sa cohésion étant maintenue par inertie, puis explose sous l’effet de l’énergie thermonucléaire libérée. D’où le nom de fusion par confinement inertiel donné à cette seconde voie d’approche du réacteur à fusion.

Pour qu’une telle voie aboutisse, il faut, d’une part, libérer plus d’énergie que celle qui est fournie pour enflammer le DT et, d’autre part, que les transformations successives d’énergie (fig. 10) conduisent à un bilan positif, avec les conditions et les limites suivantes:

– fraction f E de l’énergie électrique produite EE qui alimente le laser ne devant pas dépasser le quart pour que l’exploitation du réacteur à fusion soit rentable;

– énergie laser EL fournie avec un rendement 兀L qui pourrait avoisiner les 10 p. 100 avec les données technologiques actuelles;

– gain G de la cible en DT, rapport de l’énergie de fusion EF libérée et de l’énergie laser EL nécessaire à son implosion;

– production d’électricité à partir de l’énergie de fusion EF, se retrouvant sous forme de chaleur, au moyen de turbo-générateurs avec un rendement 兀T au mieux de 40 p. 100.

Le bilan est positif si le gain G est tel que:

soit un gain de 100 et plus pour les valeurs de f E, 兀L et 兀T indiquées ci-dessus.

Parvenir à un gain de 100 en irradiant directement une petite sphère de DT apparaît difficile (cf. supra , la réaction nucléaire 21D + 31T, in La fusion thermonucléaire: la maîtrise de la fusion sur Terre ). En effet, l’énergie spécifique 﨎F libérée par la fusion des deutons et tritons dans l’hypothèse d’une combustion totale est de:

L’énergie interne spécifique 﨎I nécessaire pour porter le DT à l’état de plasma à la température T, prise par exemple égale à 10 kiloélectronvolts, est de:

avec k , la constante de Boltzmann, et 漣m , la masse moyenne des deutons et tritons. Leur rapport:

de 280 pour la température choisie donne l’ordre de grandeur du gain maximal susceptible d’être atteint, ordre de grandeur qui semblerait convenir.

Mais, d’une part, seule une faible fraction 兀P de l’énergie laser, voisine de 10 p. 100, est cédée au cœur à l’état de plasma pour accroître son énergie, la majeure partie de l’énergie laser étant utilisée à vaporiser le DT pour le comprimer et le chauffer, mécanisme réduisant le gain à quelques dizaines. Et, d’autre part, la combustion du DT n’est pas totale, car le cœur ne reste comprimé par inertie qu’un bref instant et la combustion se ralentit à la fois par détente du cœur, sous l’influence de l’énergie de fusion libérée, et par son appauvrissement en deutons et tritons, du fait de ces fusions. Dans la gamme des températures d’inflammation de 10 à 20 kiloélectronvolts, la fraction f F de DT brûlé dans le cœur est approchée par la formule:

n et 精E étant respectivement la densité des deutons et tritons et le temps de confinement par inertie. Ainsi, pour brûler à 30 p. 100 le cœur, il faut atteindre en fin d’implosion un produit nE voisin de:

d’un ordre de grandeur supérieur à celui de la fusion par confinement magnétique. En fusion par confinement inertiel, c’est plutôt le produit 福r de la masse spécifique 福 et du rayon r du cœur qui est employé, proportionnel au produit nE à température donnée:

formule qui met en évidence l’intérêt, à 福r donné, de comprimer très fortement le DT pour réduire la masse, donc l’énergie laser:

pour la chauffer. À une masse de 1 milligramme portée à 10 kiloélectronvolts par une énergie laser de 12 mégajoules ( 兀P = 10 p. 100) et brûlant à 30 p. 100 correspond un produit 福r voisin de:

et une masse spécifique 福 de:

soit 1 700 fois la masse du DT solide de 0,2 g 練 cm size=13.

Malgré ces haute température et forte densité provoquant l’inflammation du cœur en volume et sa combustion partielle, le gain de la cible reste de l’ordre de la dizaine:

D’où la nécessité, pour parvenir à des gains de la centaine, de concevoir une architecture de cible plus élaborée, constituée d’enveloppes concentriques (fig. 11 a). Dans l’exemple indiqué, les enveloppes sont: un ablateur en matériau léger absorbant l’énergie laser et jouant le rôle de piston; un écran en matériau lourd évitant le préchauffage du DT par le rayonnement de l’ablateur porté à haute température, préchauffage qui rend plus difficile la compression; enfin, une mousse imbibée de DT liquide, emprisonnant du DT gazeux. La coquille formée par ces enveloppes est accélérée par l’impulsion délivrée par le laser jusqu’à des vitesses proches de 108 cm 練 s size=11, puis freinée par le DT qu’elle comprime et chauffe: l’énergie laser a été successivement transformée en énergie cinétique et en énergie interne. En adaptant la forme de l’impulsion laser à l’architecture de la cible, on espère comprimer le DT sans le chauffer notablement jusqu’à des densités de plusieurs milliers de fois celle de son état solide, tout en produisant en son centre un point chaud amorçant la combustion.

Le point chaud où sont satisfaites les conditions de fusion des deutons et tritons produit des neutrons et noyaux d’hélium 42He, ou particules 見 [cf. PLASMAS]. Les neutrons s’échappent de la cible. Les 見 sont ralentis dans le DT et y déposent leur énergie, engendrant l’allumage du point chaud et une onde de combustion dans le DT froid. En effet, d’une part, ils accroissent l’énergie interne du point chaud dont les dimensions sont comparables à leur libre parcours moyen: le point chaud s’enflamme, brûle à des températures de l’ordre de 100 keV et produit des 見 en grand nombre. D’autre part, du fait du gradient de température important entre point chaud et DT froid, les 見 ainsi produits cèdent leur énergie au DT froid sur une distance faible comparée au rayon r du cœur comprimé: le DT froid, porté à haute température au voisinage du point chaud, brûle, émet à son tour des 見 qui, de proche en proche, propagent la combustion dans tout le cœur du DT.

L’énergie laser sert donc principalement à comprimer le DT, l’énergie nécessaire à son chauffage étant, en majeure partie, prélevée sur l’énergie de fusion libérée. Il en résulte une réduction d’un facteur de plusieurs dizaines de l’énergie laser à investir pour faire brûler la cible et la possibilité d’atteindre un gain de 100 recherché. Un exemple des profils de densité et de température du cœur avant combustion, obtenus en simulant l’implosion de la cible sur ordinateur, est donné sur la figure 11 b. Enfin, l’énergie libérée par une masse de 1 milligramme de DT brûlant à 30 p. 100, voisine de 100 mégajoules et équivalant à celle que produisent 24 kilogrammes d’explosif, reste encore contrôlable.

Un autre mécanisme de mise en condition du DT a été proposé, dissociant compression et allumage. Un premier laser mégajoule-nanoseconde (106 J; 10 size=19 s) comprime à basse température le DT pour minimiser l’énergie à investir, jusqu’à un produit 福r de quelques grammes par centimètre carré et sans rechercher la formation d’un point chaud exigeant une implosion sphérique de haut degré de symétrie (cf. Expériences d’implosion ). En fin d’implosion, un second laser de très grande puissance pétawatt-picoseconde (1015 W, 10 size=112 s) allume le DT comprimé en l’éclairant localement avec des flux de 1020 W 練 cm size=12. Ces flux produisent des électrons de plusieurs mégaélectronvolts qui pénètrent le DT à cœur et y amorcent la fusion des deutons et des tritons.

Interaction du rayonnement laser avec la matière

Il semblait, avant tout, primordial d’étudier le couplage du rayonnement laser avec la matière et d’évaluer la fraction 兀P d’énergie laser cédée au cœur. Les expériences d’interaction entreprises dans les différents laboratoires (avec le faisceau d’un laser monochaîne focalisé au moyen d’une lentille sur une cible plane) confirmèrent, tout d’abord, les hypothèses avancées sur les phénomènes hydrodynamiques, lors de l’observation des premières émissions neutroniques vers la fin des années 1960, par l’institut Lebedev de Moscou (1968) et par le Centre d’études de Limeil-Valenton du Commissariat à l’énergie atomique (1969): le rayonnement laser, absorbé au voisinage de la densité de coupure n c, porte à haute température la surface de la cible en regard qui se détend sous forme d’un plasma; l’énergie laser déposée pénètre pour partie par conduction thermique vers l’intérieur de la cible (front d’ablation) et y induit un choc (front de choc); il y a ainsi ablation progressive de la cible, l’énergie laser atteignant des couches de plus en plus profondes (fig. 12). Par contre, les mécanismes d’absorption du rayonnement laser et de transport de l’énergie déposée se révélèrent très complexes.

Absorption par bremsstrahlung inverse

Le premier mécanisme envisagé et le plus simple est celui de l’absorption du photon par bremsstrahlung inverse : celui-ci est absorbé lors de la collision d’un électron avec un ion, au voisinage de n c. Le coefficient d’absorption correspondant (exprimé en cm size=11) et n c (en cm size=13) ont pour expressions:

où (en 猪m) est la longueur d’onde du rayonnement laser, Z le degré d’ionisation de l’atome et e (en keV) la température électronique.

Les formules (30) conduisent à choisir parmi les lasers de grande puissance disponibles les lasers à verre au néodyme ou à iode de longueur d’onde 1,06 et 1,3 猪m, plutôt que le laser à dioxyde de carbone (CO2) émettant à 10,6 猪m, car la valeur de est cent fois plus grande et l’énergie est absorbée à des densités cent fois plus élevées pour les premiers, ce qui facilite son transport vers les régions denses et, dans le cas de l’implosion, améliorer le couplage 兀P avec le cœur. Cependant, même à une longueur d’onde de l’ordre du micron, l’absorption par bremsstrahlung inverse se révèle inopérante dès que la température dépasse 1 keV, la longueur d’absorption 1/ devenant supérieure à l’épaisseur de la zone d’interaction qui est de l’ordre de 100 猪m.

Pour rendre ce mécanisme de bremsstrahlung inverse efficace, il fallait donc développer des lasers de puissance autres que les lasers à verre au néodyme ou à iode, de longueur d’onde inférieure au micromètre ( 猪m). L’interaction non linéaire du rayonnement du laser à verre au néodyme avec un cristal de phosphate dihydrogéné de potassium (KDP) se révéla très efficace dans ce sens, car elle produit les harmoniques 2, 3 et 4 du rayonnement incident auxquels correspondent les longueurs d’onde 0,53 猪m, 0,35 猪m et 0,26 猪m, avec un bon rendement de conversion, atteignant 70 p. 100 à 0,35 猪m. C’est au moyen de cette conversion de fréquence qu’on augmenta de façon notable l’absorption par bremsstrahlung inverse, comme indiqué plus bas.

Autres mécanismes d’absorption

En fait, les mécanismes d’absorption ne se limitent pas au bremsstrahlung inverse et sont plus complexes. Le comportement du plasma dans son ensemble, dit «collectif», est à l’origine de cette complexité [cf. PLASMAS]. En particulier, le rayonnement laser peut entrer en résonance avec le plasma au voisinage de la densité de coupure pour laquelle, comme cela a été rappelé, pulsations du rayonnement électromagnétique du laser 諸L et pulsations du plasma 諸P sont égales. À haut flux, cette absorption résonnante du rayonnement laser devient prépondérante devant le bremsstrahlung inverse et explique, en partie, la variation de l’énergie absorbée avec la polarisation du rayonnement laser, observée expérimentalement.

De même, le rayonnement laser est susceptible d’amplifier les fluctuations de densité du plasma et d’y induire des ondes longitudinales, soit électroniques, soit acoustiques ioniques [cf. PLASMAS], auxquelles il transfère une partie de son énergie. L’onde électromagnétique du laser de pulsation 諸L et de vecteur d’onde L se décompose en deux ondes ( 諸1, 1) et ( 諸2, 2) telles que:

Plusieurs décompositions se produisent, conduisant à différents processus. Parmi eux, mentionnons l’instabilité paramétrique absorbant l’onde laser à la densité de coupure sous forme d’une onde électronique et d’une onde acoustique ionique. L’onde laser peut aussi se transformer en une onde électromagnétique diffusée de pulsation 諸1 麗 諸L, et une onde longitudinale de pulsation 諸2 soit électronique, soit acoustique ionique, transformations qui portent respectivement les noms de diffusion Raman et diffusion Brillouin , et qui sont préjudiciables en matière d’absorption, car le rayonnement laser est en grande partie réémis par le plasma. Enfin, le faisceau laser n’est pas uniforme et présente des surintensités. Les pinceaux correspondants s’autofocalisent dans le plasma, qui se dissocie en filaments allant à l’encontre de la sphéricité de l’implosion.

Le bilan du grand nombre d’expériences effectuées se résume ainsi. Il est malaisé d’évaluer la part respective du bremsstrahlung inverse et des autres mécanismes d’absorption qui viennent d’être exposés. Le taux d’absorption dépend peu de la nature de la cible (deutérium, verre, or, etc.) et, pour les longueurs d’onde 1,06 猪m et 10,6 猪m, il varie de 20 p. 100 à 60 p. 100 lorsque le produit 﨏凞2 du flux laser 﨏 par le carré de la longueur d’onde balaye la gamme de 1013 à 1017 W . cm size=12 練 猪m2.

En revanche, aux courtes longueurs d’onde, qui sont inférieures à 1,06 猪m, et pour un produit 﨏凞2 voisin ou inférieur à 104 W 練 cm size=12 練 猪m2, l’absorption par bremsstrahlung inverse prédomine et permet d’atteindre un taux d’absorption avoisinant les 100 p. 100, comme cela a été observé au laboratoire de l’École polytechnique à 0,26 猪m en utilisant la conversion du rayonnement d’un laser à verre au néodyme en son harmonique 4. La figure 13 donne les variations de ce taux d’absorption en fonction de l’intensité du rayonnement du laser à verre au néodyme et de ses trois premiers harmoniques, la cible étant de numéro atomique faible, tel l’aluminium. Elle met en évidence tout l’intérêt des courtes longueurs d’onde, qui accroissent la fraction de l’énergie laser absorbée et donc celle 兀P qui est cédée au cœur.

Phénomènes de transport

L’énergie du rayonnement laser est cédée principalement aux électrons , qui acquièrent des vitesses dont la fonction de distribution [cf. PLASMAS] est constituée de deux parties: une, thermique (proche d’une maxwellienne), dont la température est voisine du kiloélectronvolt, et une, suprathermique, dont l’énergie peut atteindre 100 kiloélectronvolts et dont l’origine est attribuée aux mécanismes collectifs d’absorption. Les électrons suprathermiques apparaissent pour 﨏凞2 黎 1015 (W 練 cm size=12) 練 猪m2, et donc à des flux cent fois plus faibles lorsqu’on utilise un laser à C2 (10,6 猪m) plutôt qu’un laser à verre au néodyme (1,06 猪m). Leur existence est décelée sous forme d’une émission de rayons X de 10 à 100 kiloélectronvolts provenant de leur freinage par les ions du plasma.

Ces électrons suprathermiques sont très néfastes. D’une part, ils accélèrent vers l’extérieur de la cible des ions qui atteignent plusieurs mégaélectronvolts, autant d’énergie soustraite au plasma et qui ne concourt pas à l’implosion de la cible. D’autre part, de grande énergie, ils pénètrent au cœur de la cible, la préchauffent prématurément et rendent plus difficile sa compression progressive. Là encore, les courtes longueurs d’onde sont plus avantageuses puisque, réduisant la longueur d’onde, on relève le flux seuil pour lequel se produisent l’absorption collective et l’apparition des particules rapides auxquelles elle donne naissance (seul le produit 﨏凞2 est à considérer).

Ces différents phénomènes compliquent le transport de l’énergie absorbée vers les régions denses de la cible à comprimer. En particulier, il semble que la diffusion des électrons vers ces régions de forts gradients soit freinée: pour interpréter les expériences, on est souvent conduit à réduire la conduction thermique calculée au moyen de la théorie classique en introduisant empiriquement un facteur de limitation du flux de chaleur en espace libre, de l’ordre de 0,1 à 0,01. L’origine de cette conduction, dite anormale, est loin d’être établie et plusieurs explications sont avancées: fonction de distribution des vitesses non maxwellienne des électrons chauffés par le rayonnement du laser; diffusion de ces électrons dans de forts gradients de densité conduisant à ne pas traiter cette diffusion localement, mais en tenant compte de termes sources extérieurs à la zone où elle est calculée (transport délocalisé); génération de champs magnétiques dépassant le mégagauss et freinant la diffusion des électrons; dissipation d’une fraction de l’énergie absorbée sous forme de turbulence du plasma.

Expériences d’implosion

Parallèlement à ces travaux sur l’interaction, des expériences d’implosion furent entreprises pour atteindre des densités très élevées (tabl. 2). En 1972, aux États-Unis, le Lawrence Livermore National Laboratory (L.L.N.L.) déclassait le principe de la fusion par confinement inertiel. À Ann Arbor (Mich.), le laboratoire de K.M.S. (du nom du fondateur, K. M. Siegel) fut le premier, vers 1973, à faire état de l’implosion de «microballons» en verre contenant du DT gazeux, expérience reprise ensuite par la plupart des laboratoires. Le microballon (100 猪m de diamètre et 1 猪m d’épaisseur), contenant une masse de DT de quelques nanogrammes sous pression de quelques dizaines d’atmosphères, est implosé par plusieurs faisceaux lasers en réalisant un éclairement le plus uniforme possible. Dans ces expériences, effectuées en général à la longueur d’onde de 1,06 猪m avec des flux lasers élevés de 1015 W 練 cm size=12 et des durées d’impulsions brèves voisines de 100 ps, il n’y a pas ablation progressive de la paroi mince du microballon, mais explosion de celle-ci. Les électrons suprathermiques produits à ces très hauts flux pénètrent profondément dans la paroi, qui explose radialement vers l’extérieur et l’intérieur du microballon. La fraction de matière ayant acquis un mouvement centripète implose le gaz de DT qui, traversé par un choc, est porté à des températures de l’ordre du kiloélectronvolt. Ainsi, avec des densités initiales de quelques milligrammes par centimètre cube, le DT gazeux a été comprimé jusqu’à des densités dépassant les 0,2 g 練 cm size=13 de l’état liquide, des températures de 10 keV et une émission de 1013 neutrons ayant été produites avec le laser Nova 100 kJ du L.L.N.L.

Ces expériences ont entraîné un développement intense des diagnostics et de la simulation de l’implosion sur ordinateur: observation du rayonnement X (fig. 9 b) et des neutrons émis par la cible, spectroscopie de traceurs contenus dans le DT, tels que l’argon et le néon, image des particules 見 produites par les réactions de fusion, autant de diagnostics qui, par recoupement et confrontation avec les résultats des codes numériques, permettent d’affirmer que l’émission neutronique est d’origine thermonucléaire.

Bien que ces résultats aient été encourageants, ce régime d’explosion de la paroi en impulsion brève ne saurait conduire à des densités très supérieures à celles du solide par suite du choc induit qui chauffe le DT avant compression. Aussi les laboratoires s’orientèrent-ils vers l’emploi d’impulsions longues de l’ordre de la nanoseconde pour obtenir une ablation progressive de la paroi et atteindre de grandes densités. Les laboratoires de l’institut Lebedev de Moscou et de Limeil-Valenton semblaient avoir observé un tel régime d’ablation dans le passé avec des énergies lasers de 100 J. Mais avec les lasers américains produisant 10 kJ en 1 ns, laser à verre au néodyme (1,06 猪m) Shiva à Livermore (Calif.), laser à C2 (10,6 猪m) Helios à Los Alamos (N.M.), une nouvelle étape put être franchie: des densités dépassant cent fois celle de l’état liquide furent observées, comme le montre la figure 14.

Cependant, la figure 14 révèle la difficulté qu’il y a à obtenir en fin d’implosion un cœur de DT à la fois chaud et dense pour approcher la région où il s’enflamme et libère de l’énergie. En effet, les deux régimes d’implosion jusqu’ici étudiés conduisent soit à des températures élevées lorsque le microballon éclairé à haut flux durant un temps bref de 100 ps explose, soit à de fortes densités quand il y a ablation progressive de sa paroi externe par des flux modérés appliqués pendant une nanoseconde et plus. En particulier, pour ce dernier régime, on est confronté à un autre problème, celui de réaliser une implosion sphérique nécessaire à l’obtention de densités mille fois plus grandes que celles du DT liquide. Les moindres défauts dus soit à un éclairement du laser non parfaitement uniforme, soit à de faibles irrégularités de la cible vont s’amplifier au cours de l’implosion de longue durée, en particulier au travers des instabilités hydrodynamiques dites de Rayleigh-Taylor qui sont susceptibles de se développer: les performances du cœur déformé par ces défauts amplifiés et pollué par l’enveloppe qui contient le DT risquent d’être notablement réduites, ainsi que le gain thermonucléaire G. La simulation numérique montre que, pour conserver des valeurs acceptables de G, il faut une précision du pour-cent sur l’éclairement et de quelque 10 nm sur l’état de surface de la cible, précision techniquement difficile à atteindre.

Ainsi, pour tendre vers l’inflammation et la combustion, trois problèmes majeurs se dégagent de ces expériences: l’uniformité de l’attaque de la cible, la stabilité hydrodynamique de ses différentes enveloppes et la création d’un point chaud dans le DT, en suivant un chemin thermodynamique ( 福, T) approprié pour que le gain de la cible atteigne la centaine.

En ce qui concerne l’uniformité de l’attaque de la cible pour réaliser une implosion le plus sphérique possible, deux approches entrent en compétition:

– L’attaque directe au moyen de plusieurs faisceaux dont on a lissé les surintensités par des techniques qui visent à réduire la cohérence du rayonnement à l’origine de ces surintensités. Ces faisceaux se recouvrent les uns les autres de telle sorte que les variations de l’éclairement de la cible soient inférieures au pour-cent.

– L’attaque indirecte introduite par le L.L.N.L. Celle-ci consiste à envoyer les faisceaux du laser à l’intérieur d’une cavité faite d’un matériau de numéro atomique élevé (fig. 15) et à utiliser le rayonnement X mou résultant de cette interaction: le rayonnement X produit irradie plus uniformément le microballon placé au centre de la cavité et l’implose. Avec de l’or, des taux de conversion du rayonnement laser en rayonnement X de 80 p. 100 ont été obtenus.

L’uniformité de l’éclairement de la cible semble plus difficile à réaliser avec l’attaque directe, mais l’attaque indirecte requiert une énergie laser plus élevée, une partie de celle-ci étant absorbée dans la cavité de conversion. De plus, la symétrie de l’implosion en attaque indirecte pourrait être perturbée par la détente de la paroi interne de la cavité absorbant le rayonnement laser, le plasma résultant de cette interaction se comportant vis-à-vis du rayonnement laser comme une paroi déformable dans le temps et non contrôlable.

Quel que soit le mode d’attaque, tous les laboratoires s’accordent aujourd’hui à reconnaître que les longueurs d’onde courtes, inférieures au micromètre, sont les plus intéressantes: forte absorption du rayonnement laser par la cible, faible taux de production d’électrons suprathermiques minimisant le préchauffage du DT, pressions induites élevées nécessaires à l’efficacité de l’implosion, meilleur taux de conversion du rayonnement laser en rayonnement X pour l’attaque indirecte.

Pour progresser davantage, de nouvelles installations délivrant plusieurs dizaines de kilojoules ont été construites, utilisant toutes le verre au néodyme et la conversion de fréquence: Nova, 100 kJ-100 térawatts (1 TW = 1012 W), au L.L.N.L. à Livermore aux États-Unis; Gekko-XII, 30 kJ-30 TW, à l’Institute of Laser Engineering (I.L.E.) à 牢saka au Japon; Phébus, 20 kJ-20 TW, au C.E. L.-V. à Limeil-Valenton en France (énergie et puissance produites à 1,06 猪m) [tabl. 2]. Les performances de ces installations dans le plan i (température des deutons et tritons)-n 精E sont indiquées sur la figure 16. En attaque directe, avec les 24 faisceaux du laser Omega 4 kJ, le Laboratory for Laser Energetics (L.L.E.) de l’université de Rochester a obtenu une densité du DT de 200 福0 ( 福0 = 0,2 g 練 cm size=13, densité à l’état liquide) en irradiant uniformément, à 5 p. 100 près, un microballon dont le DT à l’état solide est gelé sur sa paroi interne; ce laboratoire devrait mettre en service en 1996 un nouveau laser, Omega Upgrade 0,35 猪m, 30 kJ, 60 faisceaux, avec lequel il espère obtenir une irradiation uniforme à quelques pour-cent. Des densités de 600 福0 ont été également mesurées avec Gekko XII au I.L.E., en utilisant une coquille de polyéthylène deutéré et tritié. Dans les deux cas, la température reste inférieure au kiloélectronvolt. En attaque indirecte, étudiée au moyen des lasers Nova, Gekko XII et Phébus, les meilleures performances ont été atteintes avec les 10 faisceaux de Nova produisant 20 kJ à 0,35 猪m: densité de 100 福0, température de 1,7 keV, produit n 精E

de 3 憐 1014 cm size=13 s, gain G de 10 size=13. Ces performances ont été correctement restituées par la simulation numérique de l’implosion prenant en compte dissymétries et pollution du DT par l’enveloppe de la cible soumise aux instabilités hydrodynamiques mentionnées ci-dessus.

Pour atteindre la zone de combustion, le Department of Energy (D.O.E.) des États-Unis et le Commissariat à l’énergie atomique collaborent au développement de lasers mégajoules et ont en projet la construction de nouvelles installations. Le D.O.E. a autorisé la déclassification de la majeure partie des travaux effectués avec Nova. Ils tendent à montrer qu’un laser de 2 MJ constitué de 192 faisceaux appelé National Ignition Facility (N.I.F.) permettrait de brûler le DT en attaque indirecte avec un gain proche de la dizaine, dans la mesure où la température R du rayonnement X dans la cavité est suffisamment élevée et de l’ordre de 300 à 400 eV (fig. 17). L’énergie laser seuil à atteindre est d’autant plus faible que R et la vitesse d’impulsion v résultante sont élevées. Cette énergie seuil est calculée avec une certaine plage d’incertitude (courbes a et b de la figure 17) due aux dissymétries d’implosion et à la pollution du DT. De même, le I.L.E. projette d’étudier l’inflammation en attaque directe avec une nouvelle installation d’énergie plus modeste, Gekko XII Upgrade 0,35 猪m, 100 kJ, 24 faisceaux.

Parallèlement, en s’appuyant sur la compréhension des phénomènes acquise au travers des expériences d’interaction, de transport et d’implosion précédemment décrites, on a calculé au moyen de la simulation numérique les caractéristiques du laser et de la cible requises pour le futur réacteur. La figure 18 relie l’énergie de la source telle que le laser et l’énergie de fusion EF suivant les hypothèses faites sur le rendement de la source 兀L et le gain de la cible qui délimitent respectivement les frontières inférieure et supérieure de la région autorisée du plan correspondant. Par exemple, pour 兀L = 10 p. 100 et des gains de cible intermédiaires (zone hachurée), on produirait avec un laser de quelques mégajoules une énergie de fusion de 1 000 MJ. À cette énergie de fusion correspond une puissance électrique moyenne de l’ordre du gigawatt pour une fréquence de répétition du laser de 3 Hz et un rendement du cycle thermique 兀T d’environ 30 p. 100, puissance électrique comparable à celle des réacteurs nucléaires à fission actuels.

Aussi recherche-t-on de nouveaux lasers de puissance de performances plus proches de celles qu’exige un réacteur à fusion par confinement inertiel: courte longueur d’onde de quelque 0,1 猪m, énergie de plusieurs mégajoules, rendement atteignant les 10 p. 100, fréquence de répétition de 10 Hz. Le laser à gaz à fluorure de krypton (KrF), émettant à 0,27 猪m et d’un rendement 兀L qui pourrait être de 5 à 10 p. 100, est envisagé. Le laser à verre au néodyme, utilisable aux courtes longueurs d’onde par conversion de fréquence et extrapolable aux énergies de l’ordre du mégajoule, n’est pas définitivement écarté, son rendement étant susceptible d’être amélioré, par exemple en le pompant avec des diodes lasers semi-conductrices.

Une autre approche de la fusion par confinement inertiel consiste à substituer aux faisceaux du laser des faisceaux d’électrons ou d’ions légers de 1 MeV pour imploser la matière. Les dispositifs qui les produisent ont un très bon rendement 兀, voisin de 80 p. 100, comparé à celui – quelques pour-cent (ou moins) – des lasers. Cependant, le transport des particules sur plusieurs mètres et surtout leur focalisation sur la cible posent des problèmes. Jusqu’ici, les résultats des expériences faites avec des lasers semblent meilleurs que ceux des expériences avec des

faisceaux de particules. L’emploi de faisceaux d’électrons, développé principalement à l’institut Kurchatov à Moscou, s’est révélé inefficace: une fraction importante de l’énergie des électrons était convertie en rayonnement X de haute énergie lors de leur freinage dans la cible implosée, rayonnement très pénétrant qui préchauffait prématurément la cible au détriment de sa compression. Les faisceaux d’électrons ont donc été abandonnés au profit des faisceaux d’ions légers, car, à énergie comparable, de charge voisine mais de masse beaucoup plus lourde, ils interagissent avec la cible à des vitesses nettement plus faibles et ne rayonnent pas. Le Sandia National Laboratory à Albuquerque, Nouveau Mexique, a construit une machine à faisceaux d’ions de lithium, P.B.F.A. II (Proton Beam Fusion Accelerator), qui fournit une énergie d’environ un mégajoule, mais rencontre des difficultés pour atteindre un flux de 1014 W 練 cm size=12 au niveau de la cible, similaire à ceux qui sont produits par les lasers. Enfin, la réalisation d’un accélérateur d’ions lourds (par exemple, l’uranium) de 10 GeV, délivrant 1 MJ en 10 ns, fait l’objet d’études, accélérateur qui pourrait prendre le relais du laser lors de la conception du réacteur prototype, l’étape de la combustion du DT ayant été franchie avec le laser à verre au néodyme.

Encyclopédie Universelle. 2012.

Regardez d'autres dictionnaires:

  • thermonucléaire — [ tɛrmonykleɛr ] adj. • 1950; de thermo et nucléaire ♦ Phys. Nucl. Relatif à la réaction de fusion de deux noyaux d atomes légers. Énergie thermonucléaire. Bombe thermonucléaire. ● thermonucléaire adjectif Se dit de l énergie libérée par la… …   Encyclopédie Universelle

  • Energie Nucléaire — Énergie nucléaire  Cet article concerne la physique de l énergie nucléaire. Pour la production d électricité d origine nucléaire, voir Centrale nucléaire. Pour les applications militaires du nucléaire, voir Arme nucléaire. Le terme d’énergie …   Wikipédia en Français

  • Energie nucleaire — Énergie nucléaire  Cet article concerne la physique de l énergie nucléaire. Pour la production d électricité d origine nucléaire, voir Centrale nucléaire. Pour les applications militaires du nucléaire, voir Arme nucléaire. Le terme d’énergie …   Wikipédia en Français

  • Energie nucléaire — Énergie nucléaire  Cet article concerne la physique de l énergie nucléaire. Pour la production d électricité d origine nucléaire, voir Centrale nucléaire. Pour les applications militaires du nucléaire, voir Arme nucléaire. Le terme d’énergie …   Wikipédia en Français

  • Énergie atomique — Énergie nucléaire  Cet article concerne la physique de l énergie nucléaire. Pour la production d électricité d origine nucléaire, voir Centrale nucléaire. Pour les applications militaires du nucléaire, voir Arme nucléaire. Le terme d’énergie …   Wikipédia en Français

  • ÉNERGIE — Dans toutes les transformations variées qui sont étudiées en physique, la notion d’énergie joue un rôle fondamental. Elle apparaît d’abord en mécanique, où elle signifie capacité de travail. La première forme d’énergie définie est le travail… …   Encyclopédie Universelle

  • Énergie nucléaire — Cet article concerne la physique de l énergie nucléaire. Pour la production d électricité d origine nucléaire, voir Centrale nucléaire. Pour les applications militaires du nucléaire, voir Arme nucléaire. Selon le contexte d usage, le terme… …   Wikipédia en Français

  • Thermonucléaire — Fusion nucléaire Le Soleil, siège de nombreuses réactions de fusion nucléaire. La fusion nucléaire (dite parfois thermonucléaire) est, avec la fission, l’un des deux principaux types de réactions nucléaires appliquées. Il ne faut pas confondre la …   Wikipédia en Français

  • énergie thermonucléaire — termobranduolinė energija statusas T sritis Standartizacija ir metrologija apibrėžtis Energija, išsiskirianti vykstant termobranduolinei sintezei. atitikmenys: angl. thermonuclear energy vok. thermonukleare Energie, f rus. термоядерная энергия, f …   Penkiakalbis aiškinamasis metrologijos terminų žodynas

  • énergie thermonucléaire — termobranduolinė energija statusas T sritis fizika atitikmenys: angl. thermonuclear energy vok. thermonukleare Energie, f rus. термоядерная энергия, f pranc. énergie thermonucléaire, f …   Fizikos terminų žodynas


Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.